روش پیش تعلیم سریع بر مبنای کمینه سازی خطا برای همگرائی یادگیری شبکه های عصبی با ساختار عمیق
Authors
abstract
در این مقاله با توسعه روش های موجود و بر مبنای کمینه سازی خطا و حفظ تمایز بیشینه مابین نمونه ها یک روش پیش تعلیم لایه به لایه سریع و کارا جهت مقداردهی اولیه مناسب وزن ها در شبکه های عصبی با ساختارهای عمیق ارائه شده است. تعلیم شبکه های عصبی عمیق به دلیل مواجه با تعداد بالای کمینه های موضعی اغلب همگرا نمی گردد. درحالیکه با مقداردهی اولیه مناسب وزن های شبکه به جای مقادیر تصادفی در ابتدای مسیر تعلیم، می توان از بسیاری از کمینه های موضعی اجتناب نمود. در این روش شبکه عصبی چند لایه به تعداد متناظری شبکه با یک لایه پنهان شکسته می شود و ابتدا این شبکه های تک لایه تعلیم داده می شوند. سپس مقادیر وزن حاصل از تعلیم اینها در شبکه عصبی اصلی قرار داده می شود و برای تنظیم دقیق وزن ها، تعلیم یکپارچه صورت می گیرد. روش پیشنهادی برای پیش تعلیم شبکه عصبی خودانجمنی 5 لایه پنهان جهت استخراج مؤلفه های اساسی غیرخطی چهره برای دادگان بسفروس مورد استفاده قرار گرفت. مقایسه میانگین نتایج شبکه های عصبی با مقداردهی اولیه تصادفی و مقداردهی با روش پیش تعلیم لایه به لایه نشان می دهد که این روش پیش تعلیم علاوه بر اینکه سرعت همگرائی تعلیم را بهبود می دهد، قدرت تعمیم شبکه را نیز بالا می برد. به گونه ایکه با وجود خطای تعلیم یکسان، با بکارگیری روش پیش تعلیم لایه به لایه برای مقداردهی اولیه وزن ها، خطای بازسازی هر پیکسل %69/13 کاهش و درصد صحت بازشناسی تصاویر با استفاده از مؤلفه های استخراج شده حدود %10 رشد داشته است.
similar resources
روش پیشتعلیم سریع بر مبنای کمینهسازی خطا برای همگرائی یادگیری شبکههای عصبی با ساختار عمیق
In this paper, we propose efficient method for pre-training of deep bottleneck neural network (DBNN). Pre-training is used for initial value of network weights convergence of DBNN is difficult because of different local minimums. While with efficient initial value for network weights can avoided some local minimums. This method divides DBNN to multi single hidden layer and adjusts them, then we...
full textروش پیش تعلیم لایه به لایه دوسویه برای تعلیم شبکه های عصبی عمیق
در این مقاله، یک روش پیش تعلیم دوسویه برای همگرا نمودن تعلیم شبکه های عصبی عمیق با یادگیری دیگرانجمنی ارائه شده است. تعلیم این شبکه ها به دلیل مواجه بودن با تعداد بالای کمینه های موضعی اغلب همگرا نمی گردد. این در حالی است که با مقداردهی اولیه مناسب وزن های شبکه، می توان از بسیاری از کمینه های موضعی اجتناب نمود. روش پیش تعلیم لایه به لایه دوسویه روشی سریع و کارا می باشد که در یک مسیر دوسویه به ط...
full textروش پیشتعلیم لایهبهلایه دوسویه برای تعلیم شبکههای عصبی عمیق
در این مقاله، یک روش پیشتعلیم دوسویه برای همگرا نمودن تعلیم شبکههای عصبی عمیق با یادگیری دیگرانجمنی ارائه شده است. تعلیم این شبکهها بهدلیل مواجه بودن با تعداد بالای کمینههای موضعی اغلب همگرا نمیگردد. این در حالی است که با مقداردهی اولیه مناسب وزنهای شبکه، میتوان از بسیاری از کمینههای موضعی اجتناب نمود. روش پیشتعلیم لایهبهلایه دوسویه روشی سریع و کارا میباشد که در یک مسیر دوسویه بهط...
full textپالایش شرح گذاری مجموعه تصاویر با مقیاس بزرگ با یادگیری انتقالی در شبکه عصبی کانولوشنال عمیق
فرآیند پالایش شرح گذاری تصاویر، رویکردی موثر در بهبود بازیابی تصاویر مبتنی بر برچسب میباشد. در شبکه های اجتماعی و موتورهای جستجو بسیاری از تصاویر دارای تگ های مبهم، ناقص و بی ارتباط با محتوا هستند. وجود این تگ های غیرقابل اعتماد، موجب کاهش دقت بازیابی تصاویر می شود. از اینرو در دهه اخیر، الگوریتم هایی با عنوان پالایش تگ (TR) مطرح شدهاند که به رفع نویز و غنیسازی برچسبهای تصاویر میپر...
full textرویکرد کمینه سازی خطا در روش های حرکت شبکه
روش های حرکت شبکه در مسائلی که دارای نغییرات بزرگ و شوک های مقطعی و ناگهانی هستند با ارائه شبکه های انعطاف پذیر تقریب مناسبی ارائه می دهند. در این پایان نامه، روشی جدید برای توزیع مجدد شبکه در شکل های اویلر و لاگرانژ معادله برگر یک بعدی ارائه می شود که آن را رویکرد کمینه سازی خطا می نامیم. سپس روش رویکرد کمینه سازی خطا همراه با هموار سازی شبکه و کمینه سازی نرم l2 خطا را با روش های لاگرانژمحض ...
15 صفحه اولMy Resources
Save resource for easier access later
Journal title:
پردازش علائم و داده هاجلد ۱۰، شماره ۱، صفحات ۲۶-۱۳
Hosted on Doprax cloud platform doprax.com
copyright © 2015-2023